Droits d’auteur

L’AI Act en Europe : l’intelligence artificielle sera éthique

Les Etats membres de l’Union européenne (UE) ont approuvé, le 2 février 2024, l’Artificial Intelligence Act, une législation inédite au niveau mondial pour réguler l’intelligence artificielle (IA), a annoncé la présidence belge du Conseil de l’UE.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Les ambassadeurs des Vingt-Sept ont « confirmé à l’unanimité » l’accord politique trouvé en décembre dernier entre les Etats membres et les eurodéputés, a-t-elle indiqué sur X. Les négociations sur ce texte, qui ont débuté en avril 2021, avaient été percutées à la fin 2022 par l’apparition de ChatGPT, le générateur de textes de l’entreprise californienne OpenAI, capable de rédiger des dissertations, des poèmes ou des traductions en quelques secondes.

L’IA Act est une proposition législative ambitieuse de l’Union européenne (UE) visant à établir un cadre juridique solide pour l’utilisation de l’IA dans l’UE. L’objectif principal de cette législation est de promouvoir une IA éthique et responsable, tout en protégeant les droits fondamentaux des individus et en assurant la sécurité des utilisateurs.

L’un des points clés de l’AI Act est la catégorisation des systèmes d’IA en fonction de leur niveau de risque. Les systèmes d’IA à haut risque, tels que ceux utilisés dans les secteurs de la santé, de la sécurité ou des transports, seront soumis à des exigences plus strictes en matière de transparence, de documentation et de contrôle humain.

De plus, des mécanismes de contrôle et de certification seront mis en place pour évaluer la conformité des systèmes d’IA aux normes éthiques. L’AI Act souligne également l’importance de la protection des droits fondamentaux, tels que la vie privée, la non-discrimination et la dignité humaine, dans le développement et l’utilisation de l’IA. Il met en place des mesures spécifiques pour prévenir les biais discriminatoires, garantir la confidentialité des données et assurer la transparence des systèmes d’IA utilisés par les autorités publiques.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


En adoptant l’AI Act, l’Union européenne envoie un message fort : l’intelligence artificielle doit être développée et utilisée dans le respect des valeurs éthiques et des droits fondamentaux. Cette législation pionnière positionne l’Europe comme un leader mondial dans la promotion d’une IA éthique et responsable. Cependant, l’AI Act ne se limite pas à la réglementation. Il encourage également l’innovation et la recherche dans le domaine de l’IA, en soutenant le développement de technologies éthiques et durables. Il favorise la collaboration entre les acteurs de l’industrie, les chercheurs et les autorités réglementaires, afin de promouvoir des pratiques exemplaires et d’assurer une utilisation responsable de l’IA.

I. Les principes éthiques de l’intelligence artificielle en Europe

A. Contexte de la réglementation

L’intelligence artificielle (IA) est en train de transformer de nombreux aspects de notre société, et il est essentiel de s’assurer qu’elle est développée et utilisée de manière éthique. En Europe, une nouvelle réglementation appelée l’AI Act a été proposée pour encadrer l’utilisation de l’IA et garantir sa conformité aux principes éthiques.

La Commission européenne reconnaît l’importance de réglementer l’intelligence artificielle pour protéger les droits fondamentaux, la sécurité et la vie privée des citoyens européens. Le développement rapide de l’IA a soulevé des préoccupations concernant la discrimination, la surveillance excessive, la prise de décision automatisée et les atteintes à la vie privée. Par conséquent, l’UE cherche à établir un cadre réglementaire solide pour guider l’utilisation de l’IA de manière responsable. L’AI Act: L’AI Act est une proposition législative de l’UE qui vise à établir des règles claires et harmonisées pour l’utilisation de l’intelligence artificielle au sein de l’Union européenne.

Voici quelques points clés de l’AI Act:

  1. Catégorisation des systèmes d’IA: L’AI Act classe les systèmes d’IA en fonction de leur niveau de risque, allant des systèmes à risque élevé (comme les technologies de surveillance et les systèmes de prise de décision automatisée dans les domaines critiques) aux systèmes à risque limité (comme les chatbots et les assistants virtuels).
  2. Obligations pour les fournisseurs de systèmes d’IA à risque élevé : Les fournisseurs de systèmes d’IA à risque élevé devront se conformer à des exigences strictes, telles que la réalisation d’une évaluation de conformité, la mise en place de systèmes de gouvernance et de documentation appropriés, et la soumission à des audits indépendants.
  3. Transparence et explicabilité : L’AI Act exige que les systèmes d’IA à risque élevé soient transparents et explicables. Les utilisateurs doivent être informés lorsque des décisions importantes sont prises par des systèmes d’IA et doivent avoir accès à des explications sur la logique, la portée et les conséquences de ces décisions.
  4. Interdiction de certaines pratiques : L’AI Act interdit certaines pratiques jugées inacceptables, telles que l’utilisation d’une IA pour manipuler le comportement des utilisateurs, la création de deepfakes malveillants et l’utilisation de systèmes biométriques à des fins de surveillance généralisée.

En somme, l’AI Act (Artificial Intelligence Act) en Europe est une proposition de réglementation visant à encadrer l’utilisation de l’intelligence artificielle dans l’Union européenne. L’objectif principal de cette proposition est de garantir que l’IA développée et utilisée en Europe respecte des normes éthiques élevées. Cette réglementation vise à protéger les droits fondamentaux des citoyens, à garantir la transparence et la responsabilité des systèmes d’IA, et à promouvoir la sécurité et la fiabilité de ces technologies. En mettant en place des normes et des obligations claires pour les développeurs et les utilisateurs d’IA, l’AI Act cherche à favoriser l’innovation tout en veillant à ce que l’IA soit utilisée de manière éthique et responsable. Cette proposition de réglementation marque une étape importante dans la définition d’un cadre juridique pour l’IA en Europe, reflétant la volonté des autorités européennes de promouvoir une IA digne de confiance.

B. Présentation des principes éthiques clés en Europe

L’Europe est réputée pour être à la pointe de la protection des droits humains et des valeurs éthiques. Ces principes incluent la transparence, la responsabilité, la sécurité et la confidentialité des données, la non-discrimination et la protection des droits humains.

Transparence : La transparence est un principe fondamental qui consiste à rendre compte des actions et des décisions prises. En Europe, les organisations sont tenues de divulguer les informations pertinentes sur leurs activités, leurs politiques et leurs pratiques. Cela permet aux parties prenantes, telles que les consommateurs, les employés et les investisseurs, de prendre des décisions éclairées et de comprendre comment leurs données sont utilisées.

Responsabilité : La responsabilité est un principe qui implique que les organisations et les individus assument les conséquences de leurs actions. En Europe, les entreprises sont tenues de respecter les lois et les réglementations en vigueur, ainsi que de respecter les normes éthiques. La responsabilité englobe également la prise en compte des impacts sociaux, environnementaux et économiques de leurs activités.

Sécurité et confidentialité des données : La sécurité et la confidentialité des données sont des principes cruciaux dans le contexte de la numérisation croissante de la société. En Europe, des réglementations telles que le Règlement général sur la protection des données (RGPD) ont été mises en place pour garantir que les données personnelles des individus sont protégées et utilisées de manière appropriée. Les organisations sont tenues de mettre en place des mesures de sécurité robustes pour prévenir les violations de données et de respecter les droits des individus en matière de confidentialité.

Non-discrimination : La non-discrimination est un principe qui vise à garantir l’égalité des chances pour tous, indépendamment de leur origine, de leur sexe, de leur religion, de leur handicap ou de toute autre caractéristique protégée par la loi. En Europe, il existe des lois et des politiques visant à lutter contre toutes les formes de discrimination, que ce soit dans le domaine de l’emploi, de l’accès aux services publics ou de la vie quotidienne.

Protection des droits humains : La protection des droits humains est un principe fondamental en Europe. Les droits fondamentaux, tels que la liberté d’expression, la liberté de religion, le droit à la vie privée et le droit à un procès équitable, sont protégés par la Convention européenne des droits de l’homme et d’autres instruments juridiques. Les organisations et les individus sont tenus de respecter ces droits et de prendre des mesures pour les protéger et les promouvoir.

C. Exemples de politiques, de directives et de réglementations en cours de développement ou déjà en place pour garantir l’éthique de l’intelligence artificielle en Europe

L’intelligence artificielle (IA) présente un potentiel énorme pour améliorer notre société, mais elle soulève également des préoccupations éthiques. En Europe, des politiques, des directives et des réglementations sont en cours de développement ou déjà en place pour garantir que l’IA est utilisée de manière éthique et responsable.

Le groupe de travail sur l’IA de l’UE : la Commission européenne a créé un groupe de travail sur l’IA pour élaborer des orientations et des recommandations sur l’éthique de l’IA. Ce groupe de travail rassemble des experts des Etats membres de l’UE et se concentre sur des questions telles que la transparence, la responsabilité et la protection des droits fondamentaux.

Transparence et explicabilité : La transparence et l’explicabilité sont des principes éthiques essentiels pour l’utilisation de l’IA en Europe. Les utilisateurs doivent être informés lorsque des décisions importantes sont prises par des systèmes d’IA et doivent avoir accès à des explications sur la logique, la portée et les conséquences de ces décisions. Des directives sont en cours d’élaboration pour encourager la transparence des algorithmes et permettre aux utilisateurs de comprendre comment l’IA fonctionne.

Responsabilité : La responsabilité est un autre principe éthique important en Europe. Les utilisateurs doivent savoir qui est responsable des décisions prises par les systèmes d’IA et comment les erreurs ou les préjudices seront résolus. Des réglementations sont en cours de développement pour définir les responsabilités des fournisseurs de systèmes d’IA et pour établir des mécanismes de recours en cas de préjudice causé par une IA défectueuse.

Protection des droits fondamentaux : La protection des droits fondamentaux est une préoccupation majeure en Europe lorsqu’il s’agit d’IA. Des réglementations telles que le Règlement général sur la protection des données (RGPD) ont été mises en place pour garantir que les données personnelles sont utilisées de manière appropriée et respectueuse de la vie privée. Des politiques sont également en cours de développement pour garantir que l’IA ne porte pas atteinte aux droits fondamentaux tels que la non-discrimination, la liberté d’expression et le droit à un procès équitable.

Les lignes directrices de l’UE sur l’éthique de l’IA : en 2019, la Commission européenne a publié des lignes directrices sur l’éthique de l’IA. Ces lignes directrices fournissent des principes éthiques et des recommandations pour le développement, le déploiement et l’utilisation de l’IA en Europe.

Évaluation de l’impact social : L’évaluation de l’impact social de l’IA est un aspect clé de son développement éthique en Europe. Des politiques sont en cours de développement pour encourager les évaluations d’impact social, qui examinent les conséquences de l’IA sur les individus, les communautés et la société dans son ensemble. Cela permettra de minimiser les effets négatifs potentiels de l’IA et de maximiser ses avantages pour tous.

Gouvernance et régulation : La gouvernance et la régulation de l’IA sont des éléments clés pour garantir son utilisation éthique en Europe. Des réglementations spécifiques sont en cours de développement pour encadrer l’utilisation de l’IA dans des domaines sensibles tels que la santé, la finance et la sécurité.

Initiative HLEG sur l’IA éthique : le High-Level Expert Group on Artificial Intelligence (HLEG) est un groupe d’experts nommés par la Commission Européenne pour conseiller sur les aspects éthiques de l’IA. Le groupe a publié des lignes directrices sur l’éthique de l’IA en 2019, qui ont été largement utilisées pour orienter les politiques et les pratique en Europe.

Ces exemples illustrent l’engagement de l’Europe à développer des politiques et réglementation pour garantir l’éthiques de l’IA. L’objectif est de crée un environnement propice à l’utilisation responsable et bénéfique de l’IA, en protégeant les droits fondamentaux des individus et en veillant à ce que l’IA soit utilisée de manière transparente juste et sûre.

 

II. Les défis et les perspectives de l’éthique de l’intelligence artificielle en Europe

A. Analyse des défis spécifiques liés à l’éthique de l’intelligence artificielle en Europe, tels que la protection des données personnelles, la prise de décision automatisée, la responsabilité des systèmes intelligents, etc.

L’éthique de l’intelligence artificielle (IA) est un sujet de préoccupation de plus en plus important en Europe. Alors que l’IA continue de se développer et de s’intégrer dans divers aspects de notre société, il est essentiel de comprendre et d’analyser les défis spécifiques liés à son éthique.

Protection des données personnelles : La protection des données personnelles est un défi majeur en matière d’éthique de l’IA en Europe. Dans le cadre du Règlement général sur la protection des données (RGPD), l’Union européenne a mis en place des réglementations strictes pour garantir que les données personnelles sont collectées, traitées et utilisées de manière légale, équitable et transparente. Cependant, avec l’utilisation croissante de l’IA, il est essentiel de s’assurer que les algorithmes et les systèmes d’IA respectent également ces réglementations et protègent la vie privée des individus.

Prise de décision automatisée : Un autre défi éthique important est la prise de décision automatisée par les systèmes d’IA. Les décisions prises par les algorithmes peuvent avoir un impact significatif sur les individus, notamment en matière d’emploi, de prêt, de système judiciaire, etc. Il est essentiel de s’assurer que ces décisions sont équitables, transparentes et non discriminatoires. Des mesures sont prises en Europe pour garantir que les systèmes d’IA utilisent des données impartiales et évitent les biais préjudiciables.

Responsabilité des systèmes intelligents : La question de la responsabilité des systèmes intelligents est un défi complexe en matière d’éthique de l’IA. Qui est responsable lorsque les systèmes d’IA commettent des erreurs ou causent des préjudices ? Les réglementations en cours de développement en Europe cherchent à établir des mécanismes de responsabilité clairs pour les fournisseurs de systèmes d’IA. Cela inclut des exigences de transparence, de traçabilité et de redevabilité pour garantir que les systèmes d’IA sont utilisés de manière responsable et que les erreurs peuvent être résolues de manière appropriée.

Équité et non-discrimination : L’équité et la non-discrimination sont des valeurs fondamentales en Europe et doivent être respectées dans l’utilisation de l’IA. Il est essentiel de s’assurer que les systèmes d’IA ne renforcent pas les biais existants ou ne reproduisent pas les inégalités sociales. Des mesures sont prises pour développer des outils et des méthodes permettant de détecter et de remédier aux biais dans les systèmes d’IA, ainsi que pour promouvoir la diversité et l’inclusion.

B. L’éthique de l’intelligence artificielle en Europe : Mécanismes de surveillance et de contrôle pour garantir la conformité

L’éthique de l’intelligence artificielle en Europe est un sujet d’une importance croissante. Pour garantir la conformité, il existe plusieurs mécanismes de surveillance et de contrôle. Tout d’abord, les autorités de régulation jouent un rôle clé dans la supervision de l’utilisation de l’intelligence artificielle. Elles établissent des normes et des réglementations pour encadrer son utilisation et veiller à ce qu’elle respecte les principes éthiques. Ces autorités peuvent mener des enquêtes et imposer des sanctions en cas de non-conformité.

Ensuite, il est important d’avoir des mécanismes de transparence et de responsabilité. Les développeurs et les utilisateurs de l’intelligence artificielle doivent être en mesure de comprendre comment les systèmes sont conçus et comment ils prennent leurs décisions. Cela peut passer par la documentation des algorithmes, la traçabilité des données utilisées et la mise en place de mécanismes de redevabilité en cas de préjudice causé par une décision automatisée.

Par ailleurs, les mécanismes de consentement et de protection des données jouent un rôle crucial dans la protection des droits des individus. Les utilisateurs doivent être informés de manière transparente sur la collecte et l’utilisation de leurs données, et ils doivent avoir le choix de consentir ou non à leur utilisation. Enfin, la recherche et le développement de l’intelligence artificielle doivent se faire de manière éthique. Les chercheurs et les entreprises doivent respecter des principes éthiques fondamentaux tels que la non-discrimination, la justice et le respect de la vie privée. En résumé, parmi ces mécanismes, on trouve :

  1. Autorités de régulation : Des organismes de régulation sont chargés de superviser l’application des réglementations en matière d’IA et de s’assurer que les entreprises et les organisations respectent les normes éthiques établies.
  2. Évaluations d’impact : Des évaluations d’impact éthique sont réalisées pour analyser les conséquences potentielles des systèmes d’IA sur les droits fondamentaux, la vie privée, la sécurité et la société dans son ensemble.
  3. Transparence et redevabilité : Les développeurs d’IA sont tenus de rendre compte de leurs décisions et de leurs actions, en expliquant de manière transparente le fonctionnement des systèmes d’IA et en prenant la responsabilité de leurs effets.
  4. Systèmes de signalement : Des mécanismes de signalement sont mis en place pour permettre aux individus de signaler tout problème lié à l’éthique de l’IA, afin d’assurer une réponse rapide et appropriée.

En combinant ces mécanismes de surveillance et de contrôle, l’Europe vise à promouvoir une utilisation éthique de l’intelligence artificielle tout en garantissant la protection des droits fondamentaux des citoyens.

C. L’éthique de l’intelligence artificielle en Europe : Exploration des perspectives futures de l’éthique de l’intelligence artificielle en Europe, telles que l’élaboration de normes internationales, l’implication des citoyens dans les décisions liées à l’IA, le développement de technologies éthiques, etc.

L’éthique de l’intelligence artificielle en Europe est en constante évolution, et de nombreuses perspectives futures sont explorées pour renforcer cette éthique. Voici quelques-unes de ces perspectives :

  1. Élaboration de normes internationales : L’Europe cherche à jouer un rôle moteur dans l’élaboration de normes internationales en matière d’éthique de l’intelligence artificielle. Cela permettrait d’harmoniser les pratiques et de garantir un niveau élevé de responsabilité et de protection des droits des individus à l’échelle mondiale.
  2. Implication des citoyens : Il est de plus en plus reconnu que les citoyens doivent être impliqués dans les décisions liées à l’intelligence artificielle. Des consultations publiques, des débats et des mécanismes de participation citoyenne peuvent être mis en place pour permettre aux individus d’exprimer leurs préoccupations et leurs attentes concernant l’utilisation de l’IA.
  3. Développement de technologies éthiques : Les chercheurs et les développeurs se penchent de plus en plus sur la conception de technologies éthiques. Cela peut inclure la mise en place de systèmes d’intelligence artificielle qui respectent les principes d’équité, de transparence, de responsabilité et de respect de la vie privée. Des mécanismes de contrôle et de vérification peuvent également être intégrés pour s’assurer que les systèmes fonctionnent de manière éthique.
  4. Renforcement de la responsabilité : Les mécanismes de responsabilité pour l’utilisation de l’intelligence artificielle seront renforcés. Cela peut inclure des audits réguliers, des évaluations d’impact éthique et des sanctions en cas de non-conformité. Il est également possible que des certifications éthiques soient mises en place pour les entreprises et les organisations qui souhaitent utiliser l’IA de manière responsable.
  5. Sensibilisation et formation : La sensibilisation et la formation sur l’éthique de l’intelligence artificielle seront renforcées. Il s’agit de garantir que les utilisateurs, les développeurs et les décideurs comprennent les enjeux éthiques liés à l’IA et disposent des connaissances nécessaires pour prendre des décisions éclairées.

En résumé, les perspectives futures de l’éthique de l’intelligence artificielle en Europe incluent l’élaboration de normes internationales, l’implication des citoyens, le développement de technologies éthiques, le renforcement de la responsabilité et la sensibilisation et la formation. Ces initiatives visent à garantir que l’utilisation de l’IA respecte les valeurs éthiques et les droits des individus.

Pour lire une version plus complète de cet article sur l’intelligence artificielle et l’europe, cliquez

Sources :

  1. Les pays européens approuvent une première loi pour réguler l’intelligence artificielle (lemonde.fr)
  2. AI Act : en Europe, l’intelligence artificielle sera éthique – Contrepoints
  3. Intelligence artificielle : 8 géants de la tech s’engagent à appliquer la recommandation éthique de l’Unesco – ladepeche.fr

LES SANCTIONS DE LA PLATEFORME YOUTUBE

Depuis plusieurs années déjà, la plateforme YouTube a instauré un mécanisme de sanctions qui vise à favoriser des comportements responsables et la diffusion de contenus respectueux.

Pour rappel, YouTube est un site web d’hébergement de vidéos et média social sur lequel les utilisateurs peuvent envoyer, regarder, commenter, évaluer et partager des vidéos en streaming.

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Conformément aux obligations légales, la plateforme YouTube doit donc prévoir un certain nombre de règles afin de lutter contre les contenus illicites en ligne. Dans cette logique, il est normal de constater la mise en place d’un règlement ayant vocation à régir la relation entre la plateforme YouTube et les éditeurs qui partagent du contenu.

Dans le même temps, les éditeurs de contenus sont soumis à des obligations et peuvent donc voir leur responsabilité engagée s’ils partagent un contenu contrevenant à la loi et/ou au règlement fixé par la plateforme.

Puisque la plateforme est un intermédiaire mettant en relation les annonceurs et les créateurs de contenus, qui tirent leurs revenus des annonces insérées dans les vidéos, elle ne peut se permettre des laissez-passer qui causeraient un préjudice aux annonceurs, ses principaux clients.


Besoin de l’aide d’un avocat pour un problème de contrefaçon ?

Téléphonez – nous au : 01 43 37 75 63

ou contactez – nous en cliquant sur le lien


Les récentes actualités visant deux youtubeurs français mis en cause dans des affaires de harcèlement, de viol et de corruption de mineurs ont agité la toile et de nombreuses questions concernant les mesures à prendre à leur encontre ont été soulevées. En effet la plateforme a déjà démonétisé les chaînes des deux youtubeurs afin qu’elles ne produisent plus de revenus.

Dans de nombreux cas, la plateforme procède à la démonétisation des contenus postés par le créateur. À l’origine, le terme de démonétisation s’appliquait notamment pour les vidéos qui ne respectaient pas les termes de droits d’auteurs. Dans ce cas, la plateforme stoppait toute publicité diffusée sur une vidéo et arrêtait donc de rémunérer le Youtubeur.

Par ailleurs, cette mesure faisait déjà l’objet de critiques, en effet ce procédé n’empêche pas le maintien de la chaîne du créateur et par conséquent, la visibilité des contenus postés sur la plateforme.

En outre, le remaniement des outils de modération soulève également des difficultés pour les créateurs de contenus qui utilisent la plateforme.

Face au développement de ces sanctions, on peut considérer que la plateforme exerce des sanctions arbitraires à l’égard de ses créateurs de contenus ?

I. Le fondement des sanctions infligées par la plateforme YouTube envers les créateurs

B. La régulation des contenus interdits sur les plateformes de partage

La plateforme YouTube en tant qu’hébergeur est soumise à un ensemble d’obligations légales (Cass. 1re civ., 17 févr. 2011, n° 09-67.896). En France, la LCEN soumet les intermédiaires techniques tels que les hébergeurs et les fournisseurs d’accès à internet à un régime d’obligations et de responsabilité.

En outre, en tant que plateforme privée, elle se réserve le droit d’établir des règles qui sont les siennes.

1. Les dispositions légales applicables aux hébergeurs

L’article 6 de la LCEN précise le régime spécial de responsabilité des hébergeurs. Ainsi un hébergeur ne peut pas voir sa responsabilité civile ou pénale engagée du fait des activités ou des informations stockées à la demande d’un destinataire de ces services s’il n’avait pas effectivement connaissance de leur caractère illicite ou si, dès le moment où il en a eu cette connaissance, il a agi promptement pour retirer ces données ou en rendre l’accès impossible.

Le même article impose aux hébergeurs ainsi qu’aux FAI une obligation de concourir à la lutte contre la diffusion de certaines infractions, compte tenu de l’intérêt général attaché à la répression de celles-ci. Ces infractions sont les suivantes : l’apologie des crimes contre l’humanité, la provocation à la commission d’actes de terrorisme et leur apologie, l’incitation à la haine raciale, à la haine à l’égard de personnes à raison de leur sexe, de leur orientation ou identité sexuelle ou de leur handicap ainsi que la pornographie enfantine, l’incitation à la violence, notamment l’incitation aux violences sexuelles et sexistes, ainsi que des atteintes à la dignité humaine.

L’obligation de concourir à la lutte contre les contenus illicites susmentionnés se traduit par la mise en place d’un ensemble de dispositifs de la part des hébergeurs (dispositif de signalement par exemple).

Dans le même temps, en tant qu’intermédiaire technique, la plateforme est donc soumise au principe de neutralité du net consacré par loi n° 2016-1321 du 7 octobre 2016 pour une République numérique (Loi Lemaire). Cette même loi a étendu les compétences de l’Arcep à l’application du règlement européen sur l’internet ouvert. L’Arcep a donc désormais pour mission de surveiller les pratiques des fournisseurs d’accès internet (FAI) qui pourraient écorner le principe de neutralité, de conduire des enquêtes ou de prononcer des sanctions pouvant atteindre jusqu’à 3% du chiffre d’affaires des opérateurs (article 40).

Le principe de la neutralité du net repose sur l’idée qu’internet est un support qui doit permettre la communication et la mise à disposition de contenus, sans jugement quant à la nature du contenu, et surtout par les opérateurs techniques. Autrement dit, cela signifie que les données qui transitent sur le réseau doivent être traitées, au plan technique, de manière indiscriminée. Au-delà du point de vue purement technique, la neutralité renvoie par ailleurs à plusieurs enjeux économiques et sociaux essentiels : la liberté d’expression, la capacité d’innovation, la concurrence ouverte, la non-discrimination, la diversité des contenus…

2. La régulation des contenus par la plateforme

Le partage de contenus illicites doit donc être encadré par la plateforme. Sont donc exclus d’office de la plateforme tous les contenus qui contreviendraient à la loi, c’est d’ailleurs ce que rappelle le règlement mis en place par la plateforme YouTube.

Pour faire face à leur responsabilité, les plateformes telles que YouTube utilisent divers procédés de modération.

Une partie de la modération est relayée à des modérateurs spécialement engagés pour filtrer les contenus. Ces embauches ne vont pas sans poser de problème. Il est possible de citer à titre d’exemple les troubles psychologiques qui en découlent pour les modérateurs exposés en continu à des contenus d’une extrême violence, mais également de l’opacité qui réside autour du travail de ces modérateurs soumis à des clauses de confidentialité très strictes.

Au-delà des opérations de filtrage effectuées par des êtres humains, les plateformes ont également recourt à l’intelligence artificielle pour occuper des fonctions de modération. Si la reconnaissance automatique des images violentes ou pornographiques atteint aujourd’hui des scores performants, les dispositifs équivalents en matière d’analyse de discours présentent des marges d’erreur beaucoup plus importantes, multipliant les risques de censure abusive. Les contenus soumis à interprétation, comme c’est le cas des fausses informations ou des discours haineux, s’avèrent, en effet, plus difficiles à traiter par des procédures automatisées, dans la mesure où celles-ci peinent à prendre en considération les contextes de leur énonciation.

En outre, afin de prévenir les potentielles dérives qui pourraient voir le jour, un ensemble de sanctions sont prévues par la plateforme.

Dans un premier temps, les créateurs de contenus qui dérogent « aux règles de la communauté » se voient infliger une mise en garde. La mise en garde se transforme ensuite en avertissement, les sanctions se durcissent et si le créateur reçoit un troisième avertissement au bout de 90 jours, sa chaîne sera définitivement supprimée de la plateforme.

À titre d’exemple, il est possible de citer le youtubeur Logan Paul qui en 2017, avait publié une vidéo dans laquelle il se mettait scène avec des amis dans la forêt japonaise d’Aokigahara tristement célèbre pour ses suicides et y montrait un homme pendu. Véritable scandale, cette vidéo était restée en ligne plus de vingt-quatre heures avant d’être retirée par l’auteur lui-même. Elle a eu le temps de dépasser les six millions de vues et de s’afficher dans les tendances de YouTube, un espace qui met en avant les contenus populaires.

Le vlogueur américain aux seize millions d’abonnés s’était vu adresser un avertissement pour violation des conditions d’utilisation. Cet avertissement ne semble pas avoir suffi au créateur qui postait quelques semaines plus tard une nouvelle vidéo dans laquelle il s’attaquait à des rats morts à coups de taser.

Face à ce nouveau scandale, la plateforme avait donc décidé de démonétiser le Youtubeur mais bien évidemment, la vidéo n’avait pas fait l’objet d’un retrait. Dans un communiqué de presse, la plateforme explique sa décision « Nous avons décidé de suspendre temporairement les publicités sur la chaîne YouTube de Logan Paul. Ce n’est pas une décision facile, toutefois, nous considérons qu’il a fait preuve d’un comportement répétitif dans ses vidéos qui rend sa chaîne inadéquate pour les annonceurs, mais également potentiellement dangereuse pour l’ensemble de la communauté des créateurs. »

Lorsque les vidéos sont démonétisées, elles ne sont plus mises en avant par l’algorithme. Ces sanctions semblent logiques puisqu’elles contribuent à fixer les limites à ne pas dépasser sur la plateforme au regard de la loi, des mœurs et de la liberté d’expression ou encore des dangers que peut constituer le contenu s’il est reproduit.

A la suite de cette affaire, de nombreux internautes et groupes d’action ont mis en exergue le manque de modération de la plateforme et ont dénoncé l’opacité de ce système. Les critères qui président au retrait d’un contenu ne sont pas rendus publics, et les internautes ne disposaient jusqu’à récemment d’aucune voie de recours pour contester un retrait abusif. L’entrée en vigueur du DMA et du DSA courant 2023 devrait changer la donne.

B. Les sanctions prévues pour les comportements des créateurs en dehors de la plateforme

Plus récemment, deux affaires impliquant deux youtubeurs français ont relancé le débat autour des sanctions prises par la plateforme à l’égard de ces créateurs de contenus. En effet, si jusqu’à présent les créateurs étaient souvent sanctionnés pour des contenus partagés en ligne dérogeant aux règles de la communauté, ce sont à présent les comportements en dehors de la plateforme qui sont visés.

La plateforme dispose d’une page spécifique sur laquelle elle rappelle toutes les règles applicables. Elle y définit « la responsabilité des créateurs », et fait mention du comportement des vidéastes hors de son site. Elle y résume les cas dans lesquels YouTube peut infliger une sanction, on retrouve notamment « Certains comportements sur la plate-forme et ailleurs peuvent également être considérés comme inappropriés et entraîner des sanctions ». Parmi les exemples, on trouve la « participation à des actes abusifs, violents ou cruels » ou encore « un comportement prédateur impliquant des communications au sujet de ou avec des mineurs ».

Il est possible d’interpréter ces sanctions comme une volonté de renforcer la prévention face à la « célébrité » qui peut parfois en amener plus d’un à commettre des faits répréhensibles par la loi.
En effet, YouTube souhaite avant tout garantir la sécurité et la confiance de ses utilisateurs qui représentent le moteur de son activité. En procédant à la démonétisation de la chaîne des créateurs mis en examen, cette dernière donne le ton aux autres créateurs et affiche une tolérance zéro à l’égard de tels comportements sanctionnés par la loi.

Il est aussi possible de s’interroger sur les préjudices d’images que de telles affaires provoquent pour cette dernière.  En effet, en adoptant de telles mesures, cherche-t-elle simplement à ne pas entacher son image ? Dans un monde où tout est débat et où tout se sait à « vitesse grand V », les internautes pourraient se retourner contre la plateforme qui « implicitement » cautionnerait les vidéos postées par ces créateurs alors qu’ils font l’objet de poursuites judiciaires.

Il s’agit aussi de proposer aux annonceurs « une sécurité » sur le choix des créateurs et des contenus. En effet, il pourrait être préjudiciable pour certains annonceurs de se trouver associés au contenu d’un créateur mis en examen.

YouTube en tant qu’entreprise privée favorise donc une logique économique qui vise d’une part à protéger ses utilisateurs afin de conserver l’attractivité de la plateforme, mais également à protéger les annonceurs (clients de la plateforme) en ne les associant pas à des personnalités controversées.

I. La remise en question de la légitimité de ces sanctions

A. La question de la partialité des sanctions prises à l’encontre des créateurs

La pertinence de certaines sanctions a dernièrement fait l’objet de nombreuses controverses sur la toile.  Entre les passe-droits accordés à certains créateurs et la régulation au profit des annonceurs, les créateurs de contenus font face à une pression plus importante.

Dernièrement, comme en témoignent de nombreux créateurs, la plateforme de vidéos en ligne a renforcé son outil de reconnaissance vocale en sanctionnant tous les créateurs prononçant des injures et des grossièretés.  Certains d’entre eux ont dû trouver des astuces en ajoutant des bruits de censure ou des bruits d’animaux sur des vidéos déjà publiées afin d’en dissimuler tous les mots vulgaires. Cette réglementation impacte directement les revenus des Youtubeurs. En effet les modifications de ce règlement sont rétroactives et sans préavis : elles s’appliquent donc immédiatement sur toutes les vidéos, y compris celles qui sont déjà en ligne parfois depuis plusieurs années.

Dans son règlement, YouTube indiquait déjà auparavant qu’un contenu pouvait être soumis à une limite d’âge, être supprimé ou avoir un avertissement s’il employait un usage excessif de langage vulgaire. Néanmoins, il semblerait que le durcissement des politiques du langage sur YouTube ne concernerait pas seulement les injures. En effet, sur Twitter, des streamers affirment même que certains mots seraient également bannis même s’ils ne sont pas des gros mots. Ils évoquent notamment les termes « ricains » (pour désigner un américain) ou « bled » (pour parler d’un pays) qui auraient provoqué des démonétisations.

YouTube, de son côté justifie cette nouvelle règle par une meilleure optimisation monétaire du contenu produit sur la plateforme, autrement dit elle a renforcé ses règles d’utilisation car son modèle économique est fondé sur la vente d’espaces publicitaires aux annonceurs. On parle d’une entreprise ‘Ad tech’, qui met sa technologie et ses algorithmes au service de la vente de publicités. Avec la montée en puissance de TikTok, YouTube travaille à se positionner comme la première plateforme de contenus qui rémunère ses créateurs plus et mieux que les autres plateformes, notamment en partageant ses revenus publicitaires.

En outre, l’adoption du DSA n’a-t-elle pas créé une agitation au sein de la plateforme qui tente désormais de réguler plus sévèrement les contenus illicites afin de se préparer à son entrée en vigueur.

B. Les potentielles dérives de la régulation privée

Il est également possible de s’interroger sur les conséquences que ces sanctions peuvent provoquer. Vont-elles nuire à la présomption d’innocence ?

La plateforme a déjà pris des mesures de sanctions contre des vidéastes accusés de viol, de harcèlement et de corruption de mineurs. Or ces accusations n’ont fait l’objet d’aucune poursuite et encore moins l’objet d’une décision de justice permettant de déclarer coupables les créateurs de contenu. Cette décision pourrait influencer l’opinion publique ou causer un ensemble de préjudices financiers et d’image pour les créateurs dans la même situation.

Ces sanctions suscitent de nombreuses interrogations. Devra-t-on prendre en compte des anciennes condamnations de créateurs de contenu établis sur la plateforme ?

Il est en effet possible que certains créateurs de contenu aient fait l’objet d’une condamnation judiciaire avant d’entamer des activités sur la plateforme.

Doit-on craindre qu’une forme de discrimination naisse de ces sanctions ? Où doit-on interpréter ces sanctions comme des répercussions du préjudice d’image causé à la plateforme ?

De plus, qu’en est-il en cas d’erreur judiciaire ? En effet, le créateur qui se trouvera condamné devra-t-il être indemnisé dans le cas d’une erreur de justice ayant mené à ces sanctions sur la plateforme qui aujourd’hui, constitue le fonds de commerce de beaucoup de créateurs.

Les sanctions prises à l’égard des créateurs devraient peut-être se calquer sur les faits qui sont sanctionnés par la justice. En effet, à l’issue du procès qui a opposé Marvel Fitness à d’autres créateurs de la plateforme pour cyberharcèlement en meute, le créateur de contenu a vu sa chaîne démonétisée comme il le confie dans une de ses vidéos.

Enfin il est légitime de se demander si la plateforme cherche à incarner une seconde justice. Doit-on envisager et tolérer une régulation privée ?

Si cette hypothèse reste moins probable, YouTube viendrait infliger à ces créateurs des sanctions complémentaires à leur peine prononcée par la justice. Mais cette régulation privée interpelle, la justice n’est-elle pas du ressort de la compétence des états ?

Doit-on cautionner la mise en place de telles mesures au risque de voir les acteurs privés prendre une part de plus en plus importante dans nos vies ou, au contraire, doit-on envisager que YouTube en tant que plateforme privée puisse établir ses propres « règles du jeu ».

Finalement doit-on considérer que les différentes lois qui imposent des obligations aux plateformes constituent une forme de délégation des pouvoirs de censure depuis les États vers ces grandes plateformes du web.

Pour lire une version plus complète de cet article sur les sanction de Youtube, cliquez

SOURCES :

Comment se défendre face au « revenge porn »?

Le revenge-porn est une pratique qui vient des Etats-Unis. Elle consiste à publier sur internet des images ou des vidéos pornographiques de son ex copain, ex-copine après une rupture amoureuse. Quels sont les recours si l’on est victime de cette pratique de la part de son ex ? Ce phénomène étant assez récent, que permet la loi en France ?

NOUVEAU : Utilisez nos services pour faire retirer un contenu dénigrant ou de contrefaçon en passant par le formulaire !

Phénomène ayant pris une ampleur considérable ces dernières années avec l’omniprésence d’internet dans nos vies sociales , et la présence quasi systématique d’appareils photos intégrées dans les smartphones , le « revenge porn » ou la « pornodivulgation » , commence à être pris en considération par les législations à l’international, notamment aux États-Unis où de nombreux États ont légiféré à ce propos.

Originaire des États-Unis, la pratique a été interdite par la loi dans certains États dès 2004. Elle a pourtant été remise au bout du jour par le site « Is anyone up » créé en 2010 et fermé en 2012.


Besoin de l’aide d’un avocat pour un problème de revenge porn?

Téléphonez nous au : 01 43 37 75 63

ou contactez nous en cliquant sur le lien


Afin de se prémunir de cette pratique, certains couples (américains) introduisent même des clauses sur l’utilisation des réseaux sociaux dans leur contrat de mariage.

En France, la pornodivulgation a été introduite dans le Code pénal à la suite de la promulgation de la loi pour une République numérique du 7 octobre 2016. Cette pratique constitue à présent un délit sévèrement sanctionné. Désormais condamné par l’article 226-2-1 du Code pénal, le Revenge porn n’a pas toujours fait l’objet de sanction par les juridictions pénales.

Dans un arrêt rendu le 16 mars 2016, la chambre criminelle de la Cour de cassation refusait, en vertu de l’article 111-4 du Code pénal, de procéder à une interprétation extensive de la loi pénale. Dans cette affaire, une jeune femme avait été photographiée par son ancien compagnon, à l’époque de leur vie commune, la représentant nue alors qu’elle était enceinte. Une fois séparer ce dernier avait diffusé la photographie sur internet.

La Cour d’appel avait relevé que le fait d’avoir accepté d’être photographiée ne signifie pas, compte tenu du caractère intime de la photographie, qu’elle avait donné son accord pour que celle-ci soit diffusée. Ce raisonnement emprunté à la logique civiliste de la protection de l’image n’a pas suffi à convaincre les juges de la haute juridiction.

La Cour de cassation a donc cassé l’arrêt au motif que « n’est pas pénalement réprimé le fait de diffuser, sans son accord, l’image d’une personne réalisée dans un lieu privé avec son consentement. »

Le fait de porter à la connaissance du public ou d’un tiers l’image d’une personne se trouvant dans un lieu privé n’était punissable que si la captation avait été réalisée sans le consentement de la personne concernée.

Or, la photo intime est souvent prise, ou obtenue avec le consentement de la personne concernée, mais diffusée sans son accord, et ceci pour lui nuire.

Cette interprétation stricte de la loi pénale a remué le monde politique, ce qui a conduit quelques mois après à l’adoption de la loi pour une République numérique. C’est l’article 67 de cette même loi qui a permis d’instaurer l’article 226-2-1 du Code pénal qui dispose :

Jusque-là ignoré de la loi pénale en France, le « revenge porn » est désormais un délit sévèrement sanctionné par le Code pénal. L’article 67 de la loi du 7 octobre 2016 a introduit un nouvel article 226-2-1 dans le Code pénal, la loi pour une République numérique, publiée le 7 octobre 2016 au Journal officiel qui dispose désormais :

« Lorsque les délits prévus aux articles 226-1 et 226-2 portent sur des paroles ou des images présentant un caractère sexuel prises dans un lieu public ou privé, les peines sont portées à deux ans d’emprisonnement et à 60 000 € d’amende. Est puni des mêmes peines le fait, en l’absence d’accord de la personne pour la diffusion, de porter à la connaissance du public ou d’un tiers tout enregistrement ou tout document portant sur des paroles ou des images présentant un caractère sexuel, obtenu, avec le consentement exprès ou présumé de la personne ou par elle-même, à l’aide de l’un des actes prévus à l’article 226-1 ».

Il est donc désormais possible d’intenter une procédure en cas d’images prises dans des lieux publics ou privés, avec ou sans le consentement des victimes, et diffusées sans son accord sur internet ou à des tiers. L’infraction peut cependant être caractérisée, quel que soit le moyen technique de diffusion employé (partage sur un réseau social, envoi par e-mail ou SMS).

C’est l’interprétation restrictive de la Cour de cassation de la notion de consentement.


Besoin de l’aide d’un avocat pour un problème de revenge porn?

Téléphonez nous au : 01 43 37 75 63

ou contactez nous en cliquant sur le lien


La loi du 7 octobre 2016 sera complétée par la loi du 3 août 2018 portant sur le cyberharcèlement moral et le cyberharcèlement sexuel, qui prévoit deux infractions afin de sanctionner les personnes, qui se sont concertées ou non, qui cherchent à stigmatiser une ou plusieurs personnes identifiées et à leur nuire par des comportements répétés sur les réseaux sociaux. Ces comportements comprennent des actes portants atteinte l’identité, à l’intimité, à la dignité, à la réputation et à la tranquillité.

La Cour de cassation, avait ainsi estimé dans un avis rendu le 16 mars 2016 que l’atteinte à la vie privée n’était pas caractérisée si la photo avait été obtenue avec le consentement de la victime.

Or, la photo intime est souvent prise, ou obtenue avec le consentement de la personne concernée mais diffusée sans son accord, et ceci pour lui nuire. Il est donc désormais possible d’intenter une procédure en cas d’images prises dans des lieux publics ou privés, sans le consentement des victimes, et diffusées sur internet ou à des tiers.

Les victimes peuvent dans ce cas, déposer plainte dans un commissariat de police, ou déposer plainte devant le Procureur et ensuite devant un juge d’instruction si le diffuseur des images ou vidéos est inconnu, ou directement devant le tribunal correctionnel s’il est connu.

Finalement, la jurisprudence de l’arrêt du 16 mars 2016 s’est terminée avec la loi du 7 octobre 2016, qui a instauré l’article 226-2-1 du Code pénal, qui vient sanctionner le revenge porn à une peine de deux ans d’emprisonnement et à 60 000 € d’amende.

Cet article précise que « est puni des mêmes peines le fait, en l’absence d’accord de la personne pour la diffusion, de porter à la connaissance du public ou d’un tiers tout enregistrement ou tout document portant sur des paroles ou des images présentant un caractère sexuel, obtenu, avec le consentement exprès ou présumé de la personne ou par elle-même ». Ainsi, même si la captation avait été autorisée, la diffusion peut être sanctionnée pénalement, contrairement à ce qu’avait prévu l’arrêt du 16 mars 2016.

Quels actes sont assimilés à du « Revenge Porn » ?

La pornodivulgation peut prendre diverses formes.

Le Revenge porn intervient souvent à la suite d’une rupture mal vécue. L’auteur agit alors en « représailles » et cherche à culpabiliser et à humilier sa victime.

Dans certains cas, cette pratique est utilisée pour soutirer de l’argent. Ce phénomène est très répandu chez les célébrités notamment à travers la pratique de chantage à la sextape.

L’auteur de Revenge porn peut aussi « simplement » s’amuser à montrer les images à ses amis. Souvent, les images ou vidéos ont été obtenues dans une relation de confiance, avec l’accord de la victime.

Cette vengeance ou pornodivulgation, englobe à la fois les images et vidéos échangées, mais également les propos à caractère sexuel qu’on appelle aussi sexting. Même si l’on retient le plus souvent les images et vidéos, les échanges tenus dans un cadre privé tombent sous le coup de ce délit aggravé s’ils sont diffusés sans le consentement de l’intéressé.

Quel est le profil psychologique des personnes qui s’adonnent à ce genre de pratiques ? Dans quel cas font-elles ça ?

Les personnes qui diffusent, sans leur consentement, des photos intimes de leur victime, le font très souvent dans un but de vengeance immédiate, sans mesurer les conséquences graves que cela peut avoir sur la victime.

Il peut s’agir de personnes tout à fait normales, mais qui ont eu un moment d’égarement quand elles se sont senties rejetées par la victime, très souvent dans le cadre d’une rupture non désirée.

Que faire lorsque l’on est victime de Revenge porn ?

Dans un premier temps, il est conseillé d’effectuer des captures d’écran afin de matérialiser un dossier de preuve. Une plainte peut également être déposée auprès d’un commissariat de police ou d’une brigade de gendarmerie.

Lorsque l’identité de l’auteur est connue, il est également possible de signaler son profil auprès de la plateforme PHAROS. Mise en place le 16 juin 2009 par le Gouvernement français, elle permet de signaler des contenus et comportements en ligne illicites.

Des lignes téléphoniques ont également été mise en place. Il est possible de citer le 30 18. Ce numéro d’écoute est destiné aux jeunes victimes et/ou aux témoins de cyberharcèlement et de toutes formes de violences sur internet. Il peut s’agir de Revenge porn, de chantage à la webcam, d’usurpation d’identité, etc.

Sur quels autres fondements les victimes peuvent-elles faire condamner ces pratiques ?

Les victimes peuvent faire sanctionner la diffusion non consentie de leur image, tant sur le plan civil au regard du droit au respect de la vie privée, que sur le plan pénal, lorsque la diffusion porte atteinte à l’intimité de la vie privée.

Ainsi, l’article 9 du code civil, fondement français du droit au respect de la vie privée, permet aux victimes d’obtenir le prononcé d’une réparation financière et le retrait, sous astreinte, du contenu qui leur porte préjudice. Les juges considèrent qu’un individu a sur son image et sur l’utilisation qui en est faite un droit exclusif. Par conséquent, peu importe que des photographies soient prises avec le consentement des intéressés. Le consentement à la fixation n’emporte pas consentement à la diffusion.

Ces affaires peuvent-elles accélérer les demandes des victimes en faveur du droit à l’oubli sur internet ?

Aussi souvent appelé « droit à l’oubli », le droit au déréférencement était déjà prévu par la Directive 95/46/CE, et est aujourd’hui intégré au Règlement général à la protection des données. Ce droit a été renforcé par les dispositions de l’article 17 du RGPD, et a notamment été étendu aux mineurs (article 40 de loi informatique et libertés modifié par l’article 63 de la loi pour une République numérique de 2016).

Il est ainsi prévu par le règlement que « La personne concernée a le droit d’obtenir du responsable du traitement l’effacement, dans les meilleurs délais, de données à caractère personnel la concernant et le responsable du traitement a l’obligation d’effacer ces données à caractère personnel dans les meilleurs délais ».

Le droit au déréférencement permet de lutter contre la publication de données à caractère personnel qui porte atteinte aux droits fondamentaux de la personne ou à sa vie privée. Il permet de faire supprimer un ou plusieurs résultats fournis par un moteur de recherche à l’issue d’une requête effectuée à partir de l’identité (nom et prénom) d’une personne.

Cela correspond à l’idée selon laquelle un individu peut avoir commis une faute à un moment de sa vie, sans pour autant être marqué par celle-ci pour l’éternité.

Il n’est pas nécessaire de passer par la case tribunal afin de demander le retrait d’un résultat sur un moteur de recherche. Depuis la décision de la CJUE en date du 13 mai 2014, les moteurs de recherche se sont dotés de formulaire de demande de désindexation afin de prendre directement en charge ses demandes.

Chaque demande de déréférencement est appréciée au cas par les moteurs de recherche. Pour ce faire, les moteurs de recherches procèdent à une mise en balance entre les atteintes aux droits fondamentaux, au respect de la vie privée et à la protection des données que sont susceptibles de provoquer les traitements de données, par rapport au droit à l’information et au droit de la presse.

Ainsi, un cas de Revenge porn peut tout à fait être pris en compte dans le cadre d’une demande de droit à l’oubli ou de droit à l’image protégé par le droit à la vie privée (article 9 du Code civil, ordonnance de référé du 12/05/2017 TGI Paris), pour demander le déréférencement d’URL.

De plus, dans une décision du 20 novembre 2018, le Revenge porn fut sanctionnée sur le fondement de l’article 9 du Code civil, portant sur le droit à la vie privée. En effet, il a été considéré que la diffusion des photographies à caractère sexuel, portait atteinte à l’honneur et à la considération de la personne.

Il vous est donc possible de demander aux moteurs de recherche de déréférencer un résultat qui porterait atteinte à votre vie privée et qui ne présenterait aucun intérêt pour l’information du public, critères que le Revenge porn remplit.

Sources :

http://www.lexpress.fr/actualite/societe/revenge-porn-la-vengeance-des-ex_1628679.html#
http://www.france24.com/fr/20141203-porn-revenge-porno-vengeur-photos-nue-sexe-publication-facebook-condamnation-prison-justice/
http://www.village-justice.com/articles/Publication-non-consentie-photos,17744.html
http://www.enquete-debat.fr/archives/observatoire-de-la-delation-site-porno-jemevenge-com
LOI n° 2016-1321 du 7 octobre 2016 pour une République numérique
https://www.legifrance.gouv.fr/loda/id/JORFTEXT000033202746/
LOI n° 2018-703 du 3 août 2018 renforçant la lutte contre les violences sexuelles et sexistes
https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000037284450
TGI de Bobigny, ch.5/sec.3, jugement contentieux du 20 novembre 2018
https://www.legalis.net/jurisprudences/tgi-de-bobigny-ch-5sec-3-jugement-contentieux-du-20-novembre-2018/
Cour de cassation, criminelle, Chambre criminelle, 16 mars 2016, 15-82.676 : https://www.legifrance.gouv.fr/juri/id/JURITEXT000032263441/
https://www.education.gouv.fr/non-au-harcelement/faire-face-au-sexting-non-consenti-et-au-revenge-porn-325394
https://www.gouvernement.fr/actualite/harcelement-agressions-violences-trois-numeros-pour-aider-les-enfants-en-danger
https://en.wikipedia.org/wiki/Is_Anyone_Up%3F

Identité et mort numérique

Malgré une réelle volonté d’accompagner la société dans sa transition numérique et des lois protectrices de la vie privée, il y a encore des progrès à faire pour mieux encadrer les données personnelles. Il faudrait en particulier préciser l’identité numérique et la mort numérique. L’identité numérique permet l’identification de l’individu grâce à l’ensemble des informations recueillies en ligne. En découle la « mort numérique », c’est-à-dire du sort de l’identité numérique après la mort de l’individu. 

NOUVEAU : Utilisez nos services pour vous défendre en passant par le formulaire !

L’identité numérique est le plus souvent composée d’un compte personnel, d’un mot de passe et d’une adresse email, mais elle ne saurait se définir qu’à travers ces composantes. En effet, d’autres facteurs doivent être pris en considération tels que les traces laissées par un individu lors de ses différentes connexions (adresse IP, publications, cookies).

L’identité numérique se distingue de l’identité physique. Elle est facilement falsifiable, et survit après la mort de l’individu. Sa gestion, et plus précisément sa gestion post-mortem est donc particulièrement délicate et sujette à interrogations.

Comme l’indique la CNIL dans un article du 31 octobre 2014, le concept de mort numérique semble :« potentiellement porteur d’interrogations juridiques, mais également sociétales ». Finalement, les données personnelles ont fait l’objet d’une réglementation en 2018, avec le Règlement général pour les données personnelles (RGPD).


Besoin de l’aide d’un avocat pour un problème d’identité numérique ?

Téléphonez-nous au : 01 43 37 75 63

ou contactez-nous en cliquant sur le lien


Quelles sont les interrogations soulevées par les concepts d’identité et de mort numériques ?

I – La qualification des concepts d’identité et de mort numérique

A – La notion d’identité numérique

L’identité numérique ne recouvre pas les mêmes caractéristiques que l’identité physique, il est donc important de faire la différence entre les deux.

L’identité physique d’un individu se définit à travers son état civil, son nom et son domicile. Elle est alors le fondement de l’existence de sa personnalité juridique. Chaque individu possède alors une et une seule identité physique.

L’identité numérique n’est pas liée directement au principe de personnalité juridique et n’est donc pas dépendant de la naissance ou de la mort d’un individu. Un individu peut se façonner artificiellement plusieurs identités numériques.

La commission des affaires économiques de l’Assemblée nationale définit l’identité numérique dans un rapport d’information sur le «développement de l’économie numérique française» du 14 mai 2014 comme « Regroupant l’ensemble des traces laissées par un individu (adresses IP, cookies), ses coordonnées d’identification, les contenus qu’il publie ou partage en ligne (blogs, avis, discussions, contributions à des sites collaboratifs, jeux), ses habitudes de consommation sur internet ou son e-réputation. »

La Cour de Cassation a elle reconnue, le 16 novembre 2016, que l’usurpation d’identité numérique constitue une atteinte à l’honneur et à la consécration de la personne. De plus, l’article 226-4-1 du Code pénal sur l’usurpation d’identité dispose que « Cette infraction est punie des mêmes peines lorsqu’elle est commise sur un réseau de communication au public en ligne. ».

Pourtant à l’heure où les contentieux de la reconnaissance du droit à l’oubli et le droit du droit au déréférencement par la Cour de justice de l’Union européenne, dans l’arrêt Google inc. c./ Costeja du 13 mai 2014, cette notion semble importante à préciser.

Finalement consacrée à l’article 17 du RGPD sur le droit à l’effacement, a ainsi été précisé « La personne concernée a le droit d’obtenir du responsable du traitement l’effacement, dans les meilleurs délais, de données à caractère personnel la concernant et le responsable du traitement a l’obligation d’effacer ces données à caractère personnel dans les meilleurs délais »

Pourtant à l’heure où les contentieux de la reconnaissance du droit à l’oubli et le droit du droit au déréférencement par la Cour de justice de l’Union européenne, dans l’arrêt Google inc. c./ Costeja du 13 mai 2014. Cette notion a finalement été consacrée à l’article 17 du RGPD qui créé un droit à l’effacement, ainsi « La personne concernée a le droit d’obtenir du responsable du traitement l’effacement, dans les meilleurs délais, de données à caractère personnel la concernant et le responsable du traitement a l’obligation d’effacer ces données à caractère personnel dans les meilleurs délais »

B – la notion de mort numérique

Le principal enjeu de ce concept est celui du traitement des données à la mort du défunt. En l’absence de cadre juridique précis sur la question de la mort numérique, les pouvoirs publics traitent le sujet sous l’angle du droit au respect de la vie privée des héritiers en raison du caractère personnel attaché au droit à l’image. Dans cette perspective, la loi informatique et liberté prévoit dans son article 2 que seule : « la personne concernée par un traitement de données à caractère personnel est celle à laquelle se rapportent les données qui font l’objet du traitement ».

La loi pour une République numérique revient alors sur ce concept en proposant une modification de l’ancien article 40, aujourd’hui l’article 85 de la Loi informatique et liberté, qui pourrait permettre de résoudre le problème de la transmission des données post-mortem.

Toute personne pourrait ainsi :« définir des directives relatives à la conservation et à la communication de ses données à caractère personnel après son décès. », directives modifiables et révocables à tout moment qui devront définir :«La manière dont la personne entend que soient exercés après son décès les droits qu’elle détient en application de la présente loi. ».

Ce texte apporte alors des réponses au traitement de la mort numérique, qui jusqu’à présent restait en suspens.

Dans son article publié le 28 octobre 2020 sur la mort numérique, la CNIL réaffirme cette position « Actuellement, en l’absence d’une demande de la part des héritiers ou des proches, le profil de la personne décédée continue d’exister. Ce sont aux réseaux sociaux d’organiser le devenir de ces profils. »

Ainsi, c’est aux réseaux sociaux de prévoir la suppression de ces profils. Cependant, dans les faits, il n’est pas toujours aisé de déterminer les profils actifs et ceux inactifs dont le titulaire est décédé. En effet, il se peut tout à fait que le titulaire du compte soit simplement inactif. Le responsable de traitement ne peut donc pas s’occuper de la suppression de comptes en se basant sur l’inactivité de ces derniers.

Il convient donc d’étudier plus en détail comment se passe la gestion post-mortem de l’identité numérique.

II – La gestion post-mortem de l’identité numérique

A – La question de la suppression post-mortem des comptes sur les réseaux sociaux

La CNIL, dans une fiche pratique indique que « Par principe, un profil sur un réseau social ou un compte de messagerie est strictement personnel et soumis au secret des correspondances. À ce titre, le droit d’accès n’est pas transmissible aux héritiers. C’est la raison pour laquelle il n’est pas possible pour la famille d’avoir accès aux données du défunt ».

En effet, il a clairement été tranché par le conseil d’État dans une décision en date du 7 juin 2017 que les héritiers ne peuvent se substituer au défunt dans l’exercice de ses droits personnels. Les héritiers ne peuvent être considérés comme des personnes concernées. En effet, « leur seule qualité d’ayants droit de la personne à laquelle se rapportent les données » ne leur confère pas ce statut.  Ces derniers ne peuvent agir en justice que pour voir réparer un préjudice personnel qui résulterait d’une atteinte à la mémoire du défunt.

Dans une décision du 7 juin 2017, le Conseil d’État rappelle que les héritiers ne sont par principe pas des personnes concernées, cependant il précise que si la victime d’un dommage décède alors le droit à la réparation du dommage dont elle bénéficie se transmet à ses héritiers.

Rapporté au thème de la mort numérique, cela implique donc une impossibilité pour ces derniers de demander à un responsable de site de supprimer des données au nom du défunt. En effet, l’article 85 de la loi de 1978 prévoit seulement que le responsable du traitement des données à caractère personnel prenne en considération le décès et procède aux mises à jour lorsque les héritiers d’une personne décédée en font la requête.

Si la famille d’un défunt n’a théoriquement pas le droit d’aller lire les messages privés échangés par exemple par cette personne sur Twitter, l’article 85 de la loi Informatique et libertés prévoient néanmoins que ses héritiers peuvent malgré tout exiger du responsable d’une plateforme ” qu’il prenne en considération le décès et procède aux mises à jour qui doivent en être la conséquence “ Les héritiers devront alors justifier de leurs identités. En clair, qu’il ferme ou désactive le compte en question.

La plupart des géants du Net (Facebook, Instagram, Linkedin) proposent ainsi depuis plusieurs années déjà des plateformes de signalement en cas de décès à destination des familles, même si ces procédures s’avèrent aujourd’hui assez fastidieuses dans la mesure où c’est aux proches du défunt de solliciter chaque réseau social et de fournir les justificatifs. Facebook propose notamment la possibilité de transformer le compte d’une personne décédé en « Mémorial », le compte perdure, mais sous une forme différente.

(A titre d’information, cette forme d’hommage présente un intérêt pour les plateformes qui profitent de l’activité produite par la page transformée en « mémorial ». Cette activité permet aux plateformes de collecter les données laissées par l’ensemble des proches du défunt afin d’en tirer profit.)

Dans sa fiche pratique en date du 28 octobre 2020, la CNIL propose une liste non exhaustive contenant des liens permettant d’entamer une procédure pour signaler un décès sur les réseaux sociaux. Ces liens vous dirigent directement vers les procédures à suivre pour de nombreux réseaux sociaux.

Le projet de loi Lemaire permet d’apporter en partie une réponse à la difficulté tenant au fait que bien souvent, les proches du défunt ne peuvent pas supprimer un compte ou un profil inactif. Désormais, les héritiers pourraient se subroger dans l’exercice des droits du défunt, de telle sorte qu’à défaut d’une quelconque désignation, dans l’application d’une directive, les héritiers de la personne décédée ont cette qualité pour voir prospérer les dernières volontés du défunt quant au sort de ses données. Le projet de loi précise alors que cela serait possible, « Sauf lorsque la personne concernée a exprimé une volonté contraire dans les directives ».

En outre, à l’heure de l’apparition des cimetières numériques, il est permis de s’interroger sur l’extrapolation du droit à l’oubli et du droit au déréférencement au-delà de la mort. La question est alors de savoir par l’intermédiaire de qui et comment ce droit pourra s’exercer. La question reste sans réponse.

B – La question de la transmission de l’identité numérique post-mortem

La question est de savoir s’il est possible d’intégrer dans un testament ses données informatiques et plus généralement son identité numérique, qui seraient dès lors transmises par un acte juridique aux ayants-droits. À cause des difficultés qui pourront être rencontrées par les ayants-droits, le plus simple reste encore d’organiser le devenir de ses données, de son vivant chez un notaire. D’autres alternatives existent.

Google s’est notamment saisi de la question de la transmission de la vie numérique de ses utilisateurs. L’idée est que son utilisateur pourra programmer un message transférant à un contact de confiance toutes ses données retenues sur ses différents comptes au bout d’une période d’inactivité de son choix. Des sociétés privées ont également mis en place des services de gestion des données post-mortem.
Également, la société Cupertino dispose d’un service nommé « Digital Legacy », ce dernier permet à l’utilisateur de désigner jusqu’à cinq personnes de confiance qui pourront avoir accès à tous les fichiers sauvegardés de l’utilisateur (photos, e-mails, contacts, sauvegardes, etc.) après le décès de celui-ci. Ce procédé a été mis en place par Apple dans la mise à jour IOS 15.2. Ainsi, avec ce dispositif, les données stockées dans le cloud de l’utilisateur ne sont plus perdues.

Pour lire l’article sur la mort et l’identité numérique dans sa version complète, cliquer sur ce lien

SOURCES :

http://www.nextinpact.com/news/93503-les-nouvelles-pistes-daxelle-lemaire-pour-projet-loi-numerique.htm
http://www.cnil.fr/linstitution/actualite/article/article/mort-numerique-peut-on-demander-leffacement-des-informations-dune-personne-decedee/
http://www.cnil.fr/en/linstitution/actualite/article/article/mort-numerique-ou-eternite-virtuelle-que-deviennent-vos-donnees-apres-la-mort/
http://www.assemblee-nationale.fr/14/rap-info/i1936.asp
https://www.cnil.fr/fr/reglement-europeen-protection-donnees
Crim., 16 novembre 2016, 16-80.207
https://www.legifrance.gouv.fr/juri/id/JURITEXT000033428149/
Conseil d’État, 10ème – 9ème chambres réunies, 08/06/2016, 386525, publié au recueil Lebon
https://www.legifrance.gouv.fr/ceta/id/CETATEXT000032674283/
TGI de Paris, 17e ch. corr., jugement correctionnel du 18 avril 2019
https://www.legalis.net/jurisprudences/tgi-de-paris-17e-ch-corr-jugement-correctionnel-du-18-avril-2019/
https://www.cnil.fr/fr/mort-numerique-effacement-informations-personne-decedee
https://www.cnil.fr/fr/la-loi-informatique-et-libertes#article85
https://www.legifrance.gouv.fr/ceta/id/CETATEXT000032674283/
https://www.legifrance.gouv.fr/ceta/id/CETATEXT000034879209/
https://www.linkedin.com/pulse/droit-%C3%A0-la-mort-num%C3%A9rique-tiers-de-confiance-clause-bernard-desportes/?originalSubdomain=fr